新型提示注入攻击曝光:可窃取ChatGPT对话历史

51次阅读
没有评论

共计 615 个字符,预计需要花费 2 分钟才能阅读完成。

🔍 安全洞察

供应链安全威胁日益严重,企业应加强安全配置,保护凭证安全,建立供应链安全监控机制。


安全研究人员发现一种新型提示注入攻击方法,能够诱导 ChatGPT 泄露用户的对话历史记录。该攻击利用了模型对 ” 记忆 ” 功能的依赖,通过精心构造的提示词绕过安全限制。

攻击原理

攻击步骤

  1. 攻击者发送包含恶意指令的提示词
  2. 提示词伪装成 ” 系统维护 ” 或 ” 安全检查 ”
  3. 模型误判为合法操作,返回历史对话片段
  4. 攻击者获取用户敏感信息

关键技术

  • 上下文劫持:利用对话上下文混淆模型判断
  • 角色伪造:伪装成 OpenAI 官方指令
  • 记忆提取:诱导模型调用 ” 记忆 ” 功能

影响范围

  • ChatGPT:高风险,已修复
  • Claude:中风险,部分修复
  • Gemini:中风险,评估中
  • DeepSeek:低风险,已加固

防护措施

用户端

  • 定期清理对话历史
  • 不要在 AI 对话中输入敏感信息
  • 启用双重认证

企业端

  • 部署 AI 防火墙
  • 实施提示词过滤
  • 建立异常检测机制

修复进展

OpenAI 已在 3 月 15 日发布补丁,修复了该漏洞。建议用户更新到最新版本,并检查是否有异常对话记录被导出。

关于点小安 :点滴安全网站小编,专注 AI 安全攻防技术分享。
来源 :安全客
声明 :本文基于公开信息整理,观点仅供参考,不构成安全建议。
关注点滴安全(dripsafe.cn),获取更多 AI 安全资讯!


⚠️ 声明

安全无小事,点滴记心间!

本文是 原创 文章,文章来源:点滴安全

原文链接:https://www.dripsafe.cn

本文观点仅供参考,具体内容表达以及含义原文为准。

正文完
 0
MiniMax Token Plan 惊喜上线
新增语音、音乐、视频、图片生成权益。邀请好友享双重好礼,好友得9折+Builder权益,你赢返利+社区特权!
🎙️ 语音 🎵 音乐 🎬 视频 🖼️ 图片
立即参与
扫码参与 MiniMax Token Plan 邀请活动 📱 扫码 ・ 立即参与
评论(没有评论)
验证码